极限学习机(ELM)的许多变体都致力于提高ELM对异常点的鲁棒性,而传统的鲁棒极限学习机(RELM)对异常点非常敏感,如何处理数据中的过多极端异常点变成构建RELM模型的棘手问题。对于残差较大的异常点,采用有界损失函数消除异常点对模型的污染;为了解决异常点过多的问题,采用迭代修正技术修改数据以降低由异常点过多带来的影响。结合这两种方法,提出迭代修正鲁棒极限学习机(IMRELM)。IMRELM通过迭代的方式求解,在每次的迭代中,通过对样本重加权减小异常点的影响,在不断修正的过程中避免算法出现欠拟合。在具有不同异常点水平的人工数据集和真实数据集上对比了IMRELM、ELM、加权极限学习机(WELM)、迭代重加权极限学习机(IRWELM)和迭代重加权正则化极限学习机(IRRELM)。在异常点占比为80%的人工数据集上,IRRELM的均方误差(MSE)为2.450 44,而IMRELM的MSE为0.000 79。实验结果表明,IMRELM在具有过多极端异常点的数据上具有良好的预测精度和鲁棒性。